Inteligência Artificial — Texto 16. Inclua a IA como um elemento de trabalho. Por Marc Watkins

 

Seleção e tradução de Júlio Marques Mota

6 min de leitura

Texto 16 – Inclua a IA como um elemento de trabalho

A aprendizagem requer atrito. Veja como fazer com que os alunos divulguem e avaliem o seu próprio uso de ferramentas como o ChatGPT.

 Por Marc Watkins

Publicado por  em 2 de Outubro de 2024 (original aqui)

 

 

Abra a sua plataforma favorita dos media sociais e o verá dezenas de discussões de professores angustiados pelo facto de os alunos usarem o ChatGPT e fazerem trapaça para fazer os seus trabalhos escolares. As ferramentas de IA generativa não vão desaparecer, assim como o debate de que usá-las é academicamente desonesto. Mas além dessa questão, há outra questão que vale a pena considerar: o que é que os nossos alunos podem aprender sobre escrita — e o seu próprio processo de escrita — com o uso aberto da IA generativa na sala de aula na Uversidade?

No recente ensaio de Ted Chiang para o The New Yorker, “Why AI Isn’t Going to Make Art” [Porque é que a IA não vai proporcionar uma habilidade], este autor descreve de forma pertinente os alunos que usam a IA para evitar aprender e o efeito terrível que isso tem no desenvolvimento das suas capacidades: “Usar o ChatGPT para fazer trabalhos é como levar um empilhadora para a sala de musculação; o leitor nunca vai melhorar a sua capacidade cognitiva, ao proceder  assim”.

A aprendizagem requer atrito, resistência e até mesmo que se falhe. Cerca de três décadas atrás, Robert A. Bjork, psicólogo da Universidade da Califórnia em Los Angeles, cunhou o termo “desirable difficulty“ – dificuldade desejável- para descrever os benefícios que os alunos obtêm ao realizar tarefas cada vez mais desafiadoras para melhorarem a sua capacidade de aprendizagem. O ChatGPT elimina muitas dessas dificuldades desejáveis, oferecendo ao utilizador uma experiência sem atritos: basta enviar uma pergunta à IA e obter uma resposta instantânea. O cérebro do estudante transfere todo o trabalho para um algoritmo.

Tendo em conta esta realidade, como é que, enquanto membro do corpo docente, pode responder? Na minha primeira coluna, “Por Que devemos normalizar a divulgação aberta do uso da IA“, observei que os alunos estão ansiosos por padrões porque querem usar a tecnologia de forma aberta e ética. Portanto, o primeiro passo para responder é definir esses padrões nos seus próprios cursos e “normalizar” a divulgação do uso da IA.

Aqui vou concentrar-me no segundo passo: como introduzir um pouco de atrito intencional no uso da IA pelos seus alunos e encontrar maneiras que lhes demonstrem a sua aprendizagem quando usam a tecnologia. Educadores, nomeadamente Leon Furze, Katie Conrade e Jane Rosenzweig, escreveram sobre a necessidade de manter o atrito como uma característica da sala de aula da faculdade e não permitir que ferramentas geradoras automatizem a aprendizagem.

Nos meus próprios cursos e como diretor de um instituto de IA para professores na minha universidade, adotei e sugeri este método: como parte da tarefa, exijo que os alunos avaliem criticamente como é que utilizaram a tecnologia e como é que isso afetou o seu processo de escrita. Dessa forma, eles não estão apenas a depender passivamente do conteúdo gerado por IA, mas sim a avaliar  de forma significativa o seu papel na sua escrita.

A utilização de uma ferramenta como o ChatGPT frequentemente obscurece os aspetos mais críticos do processo de escrita de um estudante, deixando o professor incerto sobre que competências foram utilizadas. Por isso, criei um formulário — AI-Assisted Learning Template, (o Modelo de Aprendizagem Assistida por IA) — para orientar os alunos a avaliarem a sua própria utilização de  IA numa qualquer tarefa específica.

No modelo, primeiro peço aos alunos que ‘destaquem como é que utilizaram as capacidades humanas e da máquina na sua aprendizagem’ em cinco categorias potenciais e ofereço-lhes uma variedade de opções para caracterizar se e como usaram ferramentas de IA para realizar o trabalho:

  • O gerar de ideias e de pensamento crítico (por exemplo: “Gerei todas as minhas ideias de forma independente” ou “Colaborei com a IA para refinar e expandir conceitos iniciais”).
  • Pesquisa e informação (“Utilizei ferramentas de busca com IA para encontrar informações relevantes” ou “Usei artigos resumidos por IA, mas tirei as minhas próprias conclusões”).
  • Planeamento e organização (“Estruturei e organizei o meu trabalho sozinho” ou “Comecei com um esboço gerado por IA e depois desenvolvi-o com as minhas próprias reflexões”).
  • Desenvolvimento de conteúdo (Escrevi todo o conteúdo sem assistência de IA” ou “Expandi parágrafos gerados por IA com o meu próprio conhecimento e criatividade”).
  • Editar e aperfeiçoar (“Editei e aperfeiçoei o meu trabalho de forma independente” ou “Avaliei criticamente as reformulações sugeridas pela IA e melhorei-as de forma seletiva”)

Em seguida, o modelo apresenta a instrução — ‘A IA pode-o ter ajudado a aprender neste processo, ou pode tê-lo trapalhado. Reserve um tempo para responder a algumas das perguntas abaixo que se relacionem com a sua experiência de utilização da IA.’ — e coloca algumas questões (ligadas aos meus objetivos de aprendizagem) para ajudar os alunos a escreverem uma breve reflexão sobre a sua utilização dessa tecnologia emergente. Entre as perguntas que expresso, estão as seguintes:

Que situações complicadas surgiram quando utilizou a IA?

Como é que encontrou um caminho para as ultrapassar ?

Discutir ideias com a IA despertou a sua criatividade?

A IA levou-te a novas direções interessantes, ou será que acabou por preferir as suas próprias ideias, independentemente do uso da IA?

Quais das suas competências se serviu ao usar a IA?

Como é que sente que melhorou?

Dar aos alunos a oportunidade de refletir de forma crítica e aberta sobre o uso que fazem da IA revela algumas verdades desconfortáveis tanto para os estudantes como para os professores. Isso pode levar ambos a questionar as suas hipóteses de partida e a surpreenderem-se com o que descobrem. Os docentes podem perceber que os alunos realmente aprenderam algo usando a IA; por outro lado, os estudantes podem entender que o uso dessas ferramentas significou que não aprenderam quase nada. No mínimo, pedir que os alunos expliquem como usaram a IA numa tarefa significa que o leitor, assim como o professor, gastará menos tempo a tentar adivinhar se eles a utilizaram ou não.

Mas o leitor pode estar a questionar-se: alguns alunos não vão simplesmente usar o ChatGPT para escrever essa avaliação também? Certamente. Porém, diz-me a minha experiência, a maioria dos estudantes universitários está ansiosa por mecanismos que demonstrem como usaram ferramentas de IA. Eles querem incorporar a IA nos seus trabalhos, mas deixar claro que ainda usaram a sua própria capacidade de raciocínio. Como professores, a nossa melhor aposta é ensinar o comportamento ético e estabelecer expectativas básicas, sem adotar vigilância intrusiva e muitas vezes não confiável.

Antes do ChatGPT, vários de nós testámos três outras ferramentas de IA (Elicit, Fermat e Wordtune) nos cursos do departamento de escrita e retórica da Universidade do Mississippi. Publicámos os nossos resultados num artigo de março de 2024 sobre “Generative AI in First-Year Writing – IA Generativa na Escrita do Primeiro Ano”. Para o nosso estudo, avaliámos os comentários escritos dos alunos sobre como usaram essas três ferramentas nos seus trabalhos de classe. Entre as nossas conclusões está:

  • Os alunos de facto aprenderam ao usar ferramentas de IA no seu processo de escrita. O detalhe: a sua aprendizagem limitou-se a interações curtas com a IA em tarefas estruturadas — e não à adoção acrítica das ferramentas.
  • Os alunos reconheceram os benefícios proporcionados pela tecnologia para explorar contra-argumentos, formular perguntas de pesquisa, reformular frases e receber retorno instantâneo. No entanto, também estavam cientes das suas limitações: por exemplo, muitos estudantes optaram por não trabalhar com grandes blocos de texto gerados pela IA porque não soavam como algo que eles escreveriam, preferindo a sua própria escrita.
  • Eles não aprenderam apenas a dar comandos a um robô de conversação. Ao serem solicitados a avaliar criticamente o uso dessas ferramentas e equilibrar a velocidade da tecnologia com essa pausa necessária para reflexão, os alunos tiveram que reafirmar com as suas próprias palavras o motivo pelo qual estavam na sala de aula — para aprender.

Quando o leitor como professor exige que os alunos revelem o papel da IA como parte rotineira de uma tarefa, também abre caminho para que percebam que a ferramenta pode não os ter realmente ajudado. Na nossa cultura, acostumamo-nos tanto a ver o fracasso como algo negativo que os jovens aprendizes evitam correr riscos. Mas exigir uma divulgação aberta transmite a mensagem de que está tudo bem que eles tentem algo novo e não tenham sucesso.

Repare, faz apenas 22 meses desde o lançamento público do ChatGPT. Ainda estamos a lidar com as implicações das ferramentas generativas e o que elas significam para os alunos. Muitas vezes, aprendemos mais sobre nós mesmos através do fracasso. Vamos dar aos alunos a mesma oportunidade com a IA.

Qual é a alternativa? Se os professores não defenderem essa transparência aberta na nossa nova era generativa, corremos o risco de transferir a tarefa para uma nova onda de ferramentas de deteção de IA que monitorizam todo o processo de escrita do aluno. A nova ferramenta Authorship do Grammarly permite que os alunos acompanhem o seu próprio processo de escrita, registando cada movimento que fazem num documento do Google. O Flint usa impressão digital linguística e estilometria para comparar a escrita do aluno com uma amostra de base. O Google começará a marcar textos gerados com o SynthID. Todos esses métodos supostamente mostram que a IA foi usada. Mas nenhum deles exige que os alunos reflitam criticamente sobre o que aprenderam ao usar a tecnologia.

E usar uma ferramenta para rastrear a escrita dos seus alunos só adiciona mais uma camada de tecnologia na tentativa de resolver um problema criado pela tecnologia. O leitor está a depender de uma máquina para tentar validar se algo foi escrito por um humano ou não. Pessoalmente, não estou disposto a participar no capitalismo de vigilância.

É por isso que recomendo que os professores mudem o foco da tecnologia como solução e invistam no capital humano — ou seja, em nós. Encontrem maneiras de os alunos divulgarem abertamente o uso de ferramentas de IA e demonstrarem o que aprenderam ao usar a tecnologia.

Os nossos alunos não são meros criadores de conteúdo, e pedir que reflitam sobre o uso da IA pode ajudá-los a tornarem-se aprendizes e escritores mais conscientes. Essa abordagem pode ser fundamental para estabelecer a tão necessária alfabetização em IA, da qual os seus alunos precisarão nos próximos anos, preservando também o valor insubstituível de uma educação centrada no ser humano.

 

__________

O autor: Marc Watkins é diretor assistente de inovação académica da Universidade do Mississippi, onde dirige o Instituto de IA para professores. É professor de escrita e retórica. Escreve regularmente sobre IA generativa na educação na sua newsletter Rhetorica. O seu trabalho com IA generativa na educação é anterior ao ChatGPT e defende a abordagem da integração da tecnologia na educação com curioso ceticismo. Ao treinar professores em Inteligência artificial aplicada, ele acredita que os educadores devem ser igualmente apoiados se optarem por trabalhar com IA ou incluir atritos para conter a influência da IA na aprendizagem dos alunos. A escrita premiada de Watkins foi reimpressa no Prêmio Pushcart e apareceu em mais de uma dúzia de revistas literárias, incluindo Boulevard, Litmag, StoryQuarterly, Third Coast e outros lugares. Como educador, seu trabalho com Recursos Educacionais Abertos foi reconhecido pela Blackboard com o Prêmio Catalyst Award for Teaching and Learning 2018.

 

Leave a Reply